最新视频 【深度学习 搞笑教程】19 激活函数 sigmoid tanh ReLU LeakyReLU ELU Swish | 草履虫都能听懂 零基础入门 | 持续更新【深度学习 搞笑教程】19 激活函数 sigmoid tanh ReLU LeakyReLU ELU Swish | 草履虫都能听懂 零基础入门 | 持续更新
最新视频 理解`torch.nn.functional.relu`的底层`THNN.Threshold_updateOutput`理解`torch.nn.functional.relu`的底层`THNN.Threshold_updateOutput`
最新视频 [pytorch] 激活函数,从 ReLU、LeakyRELU 到 GELU 及其梯度(gradient)(BertLayer,FFN,GELU)[pytorch] 激活函数,从 ReLU、LeakyRELU 到 GELU 及其梯度(gradient)(BertLayer,FFN,GELU)
最新视频 [pytorch] 深入理解 nn.KLDivLoss(kl 散度) 与 nn.CrossEntropyLoss(交叉熵)[pytorch] 深入理解 nn.KLDivLoss(kl 散度) 与 nn.CrossEntropyLoss(交叉熵)
最新视频 pytorch证明CNN-MNIST完全可以采用relu,不知道为什么非得用tanh,这不是给自己找不痛快pytorch证明CNN-MNIST完全可以采用relu,不知道为什么非得用tanh,这不是给自己找不痛快
最新视频 15-带隐藏层激活函数的神经网络前向传播及其代码实现-relu-pytorch-机器学习与深度学习导论15-带隐藏层激活函数的神经网络前向传播及其代码实现-relu-pytorch-机器学习与深度学习导论